A Markov chain is a Markov process that has a discrete state space. Chuỗi Markov là một quá trình Markov có không gian trạng thái rời rạc.
A Markov chain is a Markov process in which the system has discrete state-space. Chuỗi Markov là một quá trình Markov có không gian trạng thái rời rạc.
For a discrete state space, the integrations in the k-step transition probability are summations, and can be computed as the k'th power of the transition matrix. Đối với không gian trạng thái rời rạc, tích phân trong k bước xác suất chuyển là các tổng, và có thể được tính là mũ k của ma trận chuyển.